传统的预测方法通常依赖于统计建模,但Chronos将时间序列数据视为要建模的语言,并使用预训练的FM来生成预测,类似于大型语言模型(LLMS)的生成文本。与传统方法相比,计时可帮助您更快地实现准确的预测,从而大大减少开发时间。在这篇文章中,我们分享了Deutsche Bahn如何使用Chronos模型重新定义预测,并提供了一个示例用例,以说明如何使用Chronos开始使用。
Use custom metrics to evaluate your generative AI application with Amazon Bedrock
现在使用亚马逊基岩,您可以为模型和抹布评估开发自定义评估指标。此功能扩展了LLM-AS-A-A-a-Gudge框架,该框架推动了亚马逊基岩评估。在这篇文章中,我们演示了如何在亚马逊基岩评估中使用自定义指标,以根据您的特定业务需求和评估标准来衡量和改善生成AI应用程序的性能。
Build a gen AI–powered financial assistant with Amazon Bedrock multi-agent collaboration
这篇文章探讨了专门从事三个关键任务的财务助理系统:投资组合创建,公司研究和沟通。这篇文章旨在说明在亚马逊基地多代理协作能力中使用多个专业代理商的使用,并特别强调了他们在财务分析中的应用。
WordFinder app: Harnessing generative AI on AWS for aphasia communication
在这篇文章中,我们展示了Kori Ramajoo博士,Sonia Brownset博士,来自Qarc的David Copland教授和患有失语症的人Scott Harding如何使用AWS服务来开发Wordfinder,这是一种基于云的移动性,基于云的解决方案,可帮助患有APHASIA的个人通过使用AWS Generative AI Generative AI技术来增强其独立性。
在这篇文章中,我们展示了如何使用Amazon Q业务与JIRA Integration创建应用程序,该应用程序使用包含可信赖顾问详细报告的数据集。该解决方案演示了如何使用Amazon Q业务(例如Amazon Q Business)的新生成AI服务来更快地获得数据见解并使其可行。
Best practices for Meta Llama 3.2 multimodal fine-tuning on Amazon Bedrock
在这篇文章中,我们分享了针对亚马逊基岩上微调元美洲拉玛3.2多模式的全面最佳实践和科学见解。通过遵循这些准则,您可以微调较小,更具成本效益的模型,以实现可与之匹配甚至超过更大模型的性能,可以降低推理成本和潜伏期,同时保持特定用例的高精度。
Extend large language models powered by Amazon SageMaker AI using Model Context Protocol
人类提出的MCP提供了将FMS连接到数据源的标准化方法,现在您可以使用SageMaker AI使用此功能。在这篇文章中,我们展示了一个结合Sagemaker AI和MCP的力量来构建应用程序的示例,该应用程序通过专业角色和自动化工作流提供了新的借贷承销观点。
Automate document translation and standardization with Amazon Bedrock and Amazon Translate
在这篇文章中,我们展示了如何通过使用Amazon Web Services(AWS)翻译文档来自动化语言本地化。该解决方案将Amazon Bedrock和AWS无服务器技术组合在一起,这是一套全面管理的事件驱动的服务,用于运行代码,管理数据和集成应用程序,而无需管理服务器。
Autonomous mortgage processing using Amazon Bedrock Data Automation and Amazon Bedrock Agents
在这篇文章中,我们引入了代理自动抵押贷款批准,这是一种下一代样本解决方案,使用由亚马逊基岩代理和亚马逊基岩数据自动化提供动力的自主AI代理。这些代理商策划了整个抵押贷款批准过程 - 努力验证文件,评估风险并以最少的人为干预做出数据驱动的决策。
Amazon Bedrock Model Distillation: Boost function calling accuracy while reducing cost and latency
在这篇文章中,我们强调了使用Meta的Llama模型家族中亚马逊基石模型蒸馏的高级数据增强技术和性能改进。该技术将知识从更大,功能强大的基础模型(FMS)转移到较小,更高效的模型(学生),创建在特定任务方面表现出色的专业模型。
Build public-facing generative AI applications using Amazon Q Business for anonymous users
今天,我们很高兴地宣布,Amazon Q业务现在支持匿名用户访问。借助此新功能,您现在可以使用匿名用户模式创建Amazon Q Business应用程序,其中不需要用户身份验证,并且可以公开访问内容。在这篇文章中,我们演示了如何使用Amazon Q业务为匿名用户构建面向公共的生成AI应用程序。
在这篇文章中,我们分享了Floqast在Amazon Bedrock上使用Anthropic的Claude 3构建了AI驱动的会计交易解决方案。
Insights in implementing production-ready solutions with generative AI
随着生成性AI的革新行业,组织渴望利用其潜力。但是,从生产就绪的解决方案到全尺度实施的旅程可以提出不同的运营和技术考虑因素。这篇文章探讨了从欧洲,中东和非洲(EMEA)的AWS客户中学到的主要见解和经验教训,他们成功地导航了这一过渡,为其他希望效仿的人提供了路线图。
Responsible AI in action: How Data Reply red teaming supports generative AI safety on AWS
在这篇文章中,我们探讨了如何将AWS服务与开源工具无缝集成,以帮助您在组织内建立强大的红色小组机制。具体来说,我们讨论了数据回复的红色团队解决方案,这是一种综合蓝图,以提高AI安全性和负责任的AI实践。
InterVision accelerates AI development using AWS LLM League and Amazon SageMaker AI
这篇文章展示了AWS LLM League的游戏启示能力如何加速合作伙伴的实用AI开发能力,同时展示了微调较小的语言模型如何为特定行业需求提供成本效益,专业的解决方案。
Improve Amazon Nova migration performance with data-aware prompt optimization
在这篇文章中,我们提出了LLM迁移范式和体系结构,包括连续的模型评估过程,使用Amazon Bedrock及时生成,以及数据吸引的优化。该解决方案在迁移之前评估模型性能,并使用用户提供的数据集和目标指标迭代优化Amazon Nova模型提示。
Customize Amazon Nova models to improve tool usage
在这篇文章中,我们演示了与Amazon Nova一起使用的模型自定义(微调)。我们首先引入工具用例用例,并提供有关数据集的详细信息。我们介绍了亚马逊NOVA特定数据格式的详细信息,并展示了如何通过Converse进行工具并在Amazon Bedrock中调用API。在获得亚马逊NOVA模型的基线结果后,我们详细解释了微调过程,托管带有配置吞吐量的微型模型,并使用微调的Amazon Nova模型进行推理。
Evaluate Amazon Bedrock Agents with Ragas and LLM-as-a-judge
在这篇文章中,我们介绍了开源基础代理评估框架,这是一种简化代理开发过程的Langfuse集成解决方案。我们证明了如何将该评估框架与药品研究代理集成。我们用它来评估针对生物标志物问题的代理性能,并将痕迹发送到langfuse,以查看问题类型的评估指标。